La función del siguiente documento es apoyar el desarrolo de las clases del curso GEO-622, vinculadas al uso y manipulación de geo-información empleando diferentes plataformas SIG.
Esta guía es un apoyo y no representa un reemplazo al contenido de las clases sincrónicas.
El concepto de estadística espacial, está referido principalmente a la aplicación de conceptos y métodos estadísticos a información que dispone de datos sobre su localización y que es relevante como parte del análisis (Unwin, 2009). La estadística espacial puede ser onsiderada como un área separada dentro del análisis espacial convencional y el análisis estadístico. Habitualmente, los análisis estadísticos consideran la independencia de las observaciones que no es algo que se cumple con los datos espaciales (Getis, 2005).
Para este ejemplo utilizaremos la información de incendios en la región del Bíobío, que viene en el archivo de nombre Incendios_Biobio.xls y corresponden a la temporada 2017. Para crear la capa de datos con nuestra tabla, iremos a Archivo/Añadir datos/Agregar de datos XY.
Luego puede exportar la capa a su directorio de trabajo para no perder el archivo temporal creado.
Los análisis más convencionales que podemos realizar sobre un set de datos, corresponden a la visualización de estadísticas básicas, distribución y todo lo que comprende el análisis descriptivo. Esto, lo podemos realizar directamente sobre la tabla de atributos de nuestra capa seleccionando una columna y eligiendo la opción Estadísticas.
En su ArcToolbox usted encontrará la caja Herramientas de Estadística espacial, en esta se dispone una amplia variedad las herramientas para el trabajo con estadística espacial y algunos extras, empleados para la exploración de relaciones funcionales (contenidos que no formarán parte integral del curso) y otros análisis.
Un parámetro relevante a calcular, es la distancia promedio a la que están separadas y el patrón espacial que presentan las mismas, las estaciones o los set de datos en general que se empleen para cualquier análisis.
Para calcular esta métrica, vaya a la herramienta Promedio de vecinos más cercanos y genere un reporte del análisis.
Otro análisis común es el análisis de puntos calientes o puntos fríos a partir de entidades puntuales o polígonos con información a ponderar. Este tipo de análisis puede ser realizado con diferentes herramientas, pero para este ejemplo utilizaremos la herramienta Análisis de Puntos calientes optimizado.
La interpolación espacial es una de las formas más comunes de obtener una capa continua de información sobre una variable a partir de elementos puntuales. Este proceso permite estimar valores en zonas sin datos a partir de ubicaciones conocidas y muestradas.
Dependiendo de la naturaleza de la información y el número de datos disponibles, se puede optar por métodos determinísticos (ej. Thiessen, IDW) o métodos estocásticos (ej. Kriging) los que a su vez pueden ser globales o locales. En ArcMap usted dispondrá de los principales métodos de interpolación en la caja de herramientas de Spatial Analyst/Interpolación.
En el caso de las herramientas de densidad tenemos solo dos: (i) Densidad de elementos puntuales y (ii) Densidad de kernel. Para el caso de ambos métodos, se necesita una entidad de puntos y un radio de búsqueda o ancho de banda en el caso de la segunda opción.
Las herramientas de geoestadística de ArcGIS nos permiten realizar análisis mucho más extensivos y acabados de nuestros datos y los productos de las interpolaciones, considerando una mejora importante a las herramientas de interpolación disponibles en Spatial Analyst.
Para este ejemplo haremos uso de la información disponible en la tabla data_OC_Chiloe.xls, y la agregaremos de la misma forma que con los datos de incendios de los ejercicios anteriores.
Active la barra de herramientas de Geostatistical Analyst, haciendo click derecho sobre las barras de herramientas y marque la herramienta mencionada.
Realizaremos un ejemplo sencillo de interpolación utilizando Kriging como método de predicción de nuestras variables de interés. Es importante destacar que existen varios tipos de krigings (simple, ordinario, universal, bayesiano, entre otros) y cada uno se rige por supuestos iniciales que deben ser considerados antes de la elección de uno u otro método.
En este caso, consideraremos el uso de kriging ordinario bajo los siguientes supuestos: (i) Distribución normal, (ii) Estacionariedad de segundo orden y (iii) Sin tendencias direccionales.
Para explorar la información de interés vaya a la barra de Geostatistical tools/Explore data
Aquí exploraremos el supuesto de normalidad, que puede ser revisado de diversas maneras. Utilice el histograma para revisar los datos de clorofila a.
¿Los datos cumplen con nuestros supuestos?
Esta es una pregunta que se puede responder mirando la distribución de los datos, comparando mediana y media, coeficiente de sesgo (skewness) o viendo kurtosis.
También se puede emplear algún test de normalidad como Shapiro-Wilk o Kolmogorov-Smirnov (K-S).
Ante la ausencia de distribución normal en los datos, en general se considera la aplicación de transformaciones a los datos. En este sentido, las principales transformaciones disponibles en la herramienta son (Johnston et al., 2001; Esri, 2018):
Y(s) = (Z(s)λ - 1)/λ
Z(s) = datos observados Para λ ≠ 0
Y(s) = ln(Z(s))
Z(s) = datos observados ln = logaritmo natural Para Z(s) > 0
Y(s) = sin-1(Z(s)),
Para Z(s) entre 0 y 1.
Además de evaluar la normalidad de nuestros datos y el supuesto de estacionariedad, las herramientas de geoestadística nos permiten revisar la presencia de tendencias direccionales en nuestra información. Esto puede ser revisado de manera visual empleando la opción Trend analysis
En este caso, nuestros datos requieren una transformación logarítmica y además una remoción de tendencia de 2do orden. Esto, para evitar migrar a otros métodos como Kriging Empírico bayersiano.
Con nuestra exploración realizada, ahora iremos a modelar nuestro variograma. Considere la opción Kriging/Co-kriging y opere con los parámetros detectados en el AEDE.
En la siguiente sección podemos ajustar nuestro modelo teórico al variorama experimental detectado y optimizar parámetros del mismo. Considere siempre que el ajuste del modelo dependerá del variograma y que el mismo puede cambiar de un set de datos a otro.
Luego de modelar y considerar los ajustes pertinentes, la herramienta nos proporcionará una validación cruzada de nuestro modelo. Esto permitirá que podamos evaluar la bondad de ajuste y decidir si lo mantenemoso realizamos cambios.
Finalmente podemos obtener el resultado de la predicción además de un mapa del error estándar asociado, lo que nos permite evaluar espacialmente donde nuestro mapa es más confiable.
3.1. Empleando la capa Earthquake_2000-2019_35_9_Coquimbo_Biobio. Haga un análisis de hot spot y justifique cuantitativamente la selección de sus parámetros de entrada (Distancia, ancho de celda, etc.). Considere las herramientas vistas en el laboratorio y presente los resultados
3.2. Realice un mapa de densidad de eventos sísmicos en el área.
3.3. Empleando la tabla data_OC_Chiloe.xls y realice una modelación geoestadística de la temperatura superficial del mar.
Deberá entregar un documento con el desarollo de cada item (pantallazos de procesos, reportes de análisis, etc.) en formato PDF. Deberá incluir el proyecto SIG asociado más la base de datos asociada.